硬件生态周期发展于人机交互的成熟|WARE2019
2019年4月20日,深圳湾「WARE 2019 新硬件峰会」在深圳梧桐岛召开,百度AI交互设计院受邀,并由其人机探索实验室负责人李士岩发表题为「人机交互如何推动硬件周期性变革」的主题演讲。在演讲中,士岩围绕硬件更迭与人机交互的革新,分享过去一年以来,百度AI交互设计院在优化现有交互模型、提升产品体验,及发展全新交互模型,革新产品体验两方面取得的成果与经验。
以下为演讲实录:
各位同行,各位朋友,我是百度AI交互设计院人机探索实验室的李士岩。今天能和大家分享我非常的兴奋,因为此刻我们正站在新一轮硬件生态周期的起点,在这个起点上的2017年,百度AI交互设计院成立,并以引领与定义最好的人机交互为使命,与生态伙伴一起做时代的探路者。
人机交互的本质是基于传感器、基于软硬一体化的输入反馈循环,人机交互的进化是计算平台迭代的基础,而新计算平台规模化会促进应用生态繁荣。
鼠标的发布是在1968 秋季联合计算机会议上,那时的鼠标没有点击操作,只能移动光标。真正的左键=选择、右键=更多、双击=打开的现代鼠标交互模型,是在1981年施乐公司发布的Xerox Star时才成型,从1968到1981,13年的时间,而正是这种交互模型的成熟,促进了90世纪末到20世纪初基于鼠标交互模型的硬件生态发展,而PC的规模化直接促进了办公、游戏、在线教育等服务生态的繁荣。
关于手指的交互,事实上1965年就已具备初步的手指位置检测技术,而到2007年点击+释放=确认、双指=缩放、长按=更多的交互模型才真正成熟,这种交互模型的成熟直接促进了各种基于触摸交互的硬件生态成型,而移动设备的规模化促进了出行、餐饮、居住等服务生态形成。
每一个硬件周期由技术升级作为起点,算法、设计、人因工程与硬件相耦合将人机交互模型推向成熟,而人机交互的成熟会促进硬件平台的发展形成新一轮硬件生态,硬件生态的规模化会极大的促进衣食住行等服务生态的繁荣,这种繁荣会反补再促进硬件生态的进一步规模化,形成共荣。
可以说,硬件的周期开始于技术升级,发展于人机交互成熟,终结于生态枯竭与规模化终止,目前我们处于移动生态周期的末端,移动生态终结的原因不只是人口红利的消失,更是由触摸+传感器的交互模型所激发的服务生态已被最大化。
而目前一个新的技术起点已经来临,它就是AI,借助AI的能力我们已经形成了语音交互、手势交互等交互模型,以及多种模型互相融合的多模交互,但是目前这些交互只形成了智能音箱这一具备初步平台潜力的新硬件,有更多硬件需要被创造,被规模化,这才能形成新的硬件与服务生态互相激发的新周期。所以目前,推进交互模型的成熟是当务之急。
百度AI交互设计院人机探索实验室,在过去的一段时间中通过优化现有交互模型和发展新的交互模型两个维度,来推进人机交互更加成熟。
在优化现有交互模型维度,我们对语音交互模型每个节点进行拆解,对关键节点进行精确的体验测量。比如,在屏幕交互时代页面的相应速度越快越好,但在语音唤醒时,一个过快响应的语音让人感觉抢话轻浮,而过慢的语音响应让用户觉得迟钝,而最佳的响应时间是650ms,底线是2150ms。
大多数手机的音量调节刻度是18个格,但这对用语音调节音量是好的吗?经过测试其实不然,用语音调节音量和刻度有它自己的最佳公式。
取唤醒词是每个智能语音产品的必备功课,什么唤醒词是好的?经过测试,用户最喜欢唤醒词的形式为叠字、音调是阴平,尾音要是零声母。
智能驾驶是百度的重点AI方向,我们如何判断车机的屏幕交互分布呢?在实验中我们借助第一视角的眼动测试,用多个维度进行测量得到最佳结果。
手势交互的关键是找到最自然的操作与手势的对应关系,比如在这些手势里大家觉得哪个最能代表关闭呢?哪个最能代表暂停?
在现有交互模型上,无论是语音、手势、多模,在过去一段时间内我们以人因工程为手段进行了大量的标准定义工作,希望这些工作能推动行业体验生态的进步。不仅如此,在发展新的交互模型维度我们也进行了一些工作。
第一个维度是情感交互。人是情感动物,在人机交互发展的几十年里,机器的IQ有了大幅提升,但是机器的EQ尚未得到发展,而当两个产品的IQ、功能、资源相同的时候,一个EQ更高的产品一定更受欢迎。EQ包含两个部分,它是情绪的识别与应对。
关于情绪的识别,我们东方人的表达情绪通常比较含蓄,为此我们利用东方人的人脸数据进行识别训练,随之数据量的增大,它的精准度会逐渐提高。
关于情绪的应对,它有两个场景,一个是带有情绪的输出指令和负向情绪的调节。在实验室我们通过情绪的激发,测试不同的应对策略,同时观察用户情绪的曲线变化。我们发现当用户处于悲伤状态时,机器人的应对策略是悲伤情绪+安抚策略;当用户处于愤怒时,机器人的应对策略是谦卑+认错。人的6种基本情感+27种的丰富情感,它们的详细应对策略我们都会对外一一发布。从前无论你处于什么情绪状态下,产品都是统一的回答,现在通过情绪应对策略,我们让机器进化到能够感知用户情绪,进而给出个性化的应对策略。
第二个维度是更自然的语音交互模型。语音交互根据交互专注程度与交互距离可分为四个象限,而目前的语音交互模型能很好的cover 3、4象限,但每一次必须带唤醒词的交互模型,无法解决近场的连续交互问题。
为此我们设计并研发了新的交互模型,我们叫它Easytalk,请大家通过一个左右分屏,一刀未剪的视频了解Easytalk。
Easytalk不是简单的通过人脸唤醒的交互逻辑,它具备很强的抗噪音能力。利用Easytalk我们首次实现不用唤醒词,连续,随时打断的语音交互。这种语音交互模型将可以被广泛应用在手机、带屏音箱、以及机器人等品类。
在AI交互设计院,人因工程团队研究和定义标准,人机探索实验室,通过软硬一体化探索新的交互模型,一面脚踏实地,一面仰望星空。我们有着最专业的设备,并正在建立第一个AI人机交互的实验室。
目前我们正处在一个新的硬件周期将要爆发的前夜,推动这种爆发只有我们自己是远远不够的,开启一个新的周期需要全行业的共同努力,因此AI交互设计院的研究成果将在我们的公众号上与行业共享。让我们共同努力创造一个全新的开始。